首页> 外文OA文献 >Cached Long Short-Term Memory Neural Networks for Document-Level Sentiment Classification
【2h】

Cached Long Short-Term Memory Neural Networks for Document-Level Sentiment Classification

机译:文档级缓存长短期记忆神经网络   情感分类

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Recently, neural networks have achieved great success on sentimentclassification due to their ability to alleviate feature engineering. However,one of the remaining challenges is to model long texts in document-levelsentiment classification under a recurrent architecture because of thedeficiency of the memory unit. To address this problem, we present a CachedLong Short-Term Memory neural networks (CLSTM) to capture the overall semanticinformation in long texts. CLSTM introduces a cache mechanism, which dividesmemory into several groups with different forgetting rates and thus enables thenetwork to keep sentiment information better within a recurrent unit. Theproposed CLSTM outperforms the state-of-the-art models on three publiclyavailable document-level sentiment analysis datasets.
机译:最近,由于神经网络减轻了特征工程的能力,因此在情感分类方面取得了巨大的成功。然而,由于存储单元的不足,剩下的挑战之一是在循环架构下对文档级情感分类中的长文本进行建模。为了解决这个问题,我们提出了一种CachedLong短期记忆神经网络(CLSTM),以捕获长文本中的整体语义信息。 CLSTM引入了一种缓存机制,该机制将内存分为具有不同遗忘率的几组,从而使网络能够更好地将情感信息保持在循环单元内。在三个可公开获得的文档级情感分析数据集上,拟议的CLSTM优于最新模型。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号